Ursula von der Leyen steht blamiert da. Sie wollte aufspringen auf die KI-Welle, von der aber längst klar ist, dass viele damit verbundene Erwartungen übertrieben sind. Vor allem das Geraune um die alsbald kommende Künstliche Intelligenz, die uns intellektuell ebenbürtig oder uns gar in den Schatten stellen wird, verursacht bei Menschen Kopfschütteln, die sich wissenschaftlich mit dem Thema befassen.
Die EU-Kommissionspräsidentin hatte behauptet, KI werde sich schon nächstes Jahr dem menschlichen Denken und Verstehen annähern. Sie sagte das in einer Rede auf der EU-Haushaltskonferenz im Mai in Brüssel: „Als der aktuelle Haushalt ausgehandelt wurde, dachten wir, dass die KI erst um 2050 dem menschlichen Verstand nahekommt. Jetzt gehen wir davon aus, dass das bereits nächstes Jahr der Fall sein wird.“
Wissenschaftler, die zu Künstlicher Intelligenz forschen und lehren, widersprechen ihr jetzt öffentlich in einem Brief (pdf). Sie drängen von der Leyen, Abstand davon zu nehmen, dem KI-Hype hinterherzuhecheln und einer unmittelbar bevorstehenden Allgemeinen Künstlichen Intelligenz (Artificial General Intelligence, AGI) das Wort zu reden.
Sie fordern, dass die Kommission stattdessen die Behauptungen der Tech-Konzerne „sorgfältig prüfen“ und „unparteiisch und wissenschaftlich“ analysieren sollte. Potentiell sinnvolle KI würde nicht dadurch befördert, „dass unwissenschaftliche Marketingaussagen von US-Technologieunternehmen“ wiedergekäut würden.
Künstliche Intelligenz
Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit!
Was die Forscher besonders erzürnte: Anlässlich der Rede fragte ein Wissenschaftler bei der Kommission nach Belegen (pdf), wie von der Leyen auf dieses schmale AGI-Brett gekommen wäre. Als Antwort erhielt er jedoch keinerlei wissenschaftliche Fakten. Stattdessen zog die Kommission ernsthaft ein paar Blog-Einträge oder Aussagen auf Konferenzen von Tech-Broligarchen wie Anthropic-Chef Dario Amodei oder OpenAI-Chef Sam Altman als angebliche Beweise aus dem Hut.
Desinformation aus der Spitzenpolitik
Es ist gut, wenn jemand Kompetentem mal der Kragen platzt und angesehene Wissenschaftler übertriebenen Quatsch als solchen benennen und auf Fehlentwicklungen hinweisen. Denn Desinformation sollte nicht auch noch aus der Spitzenpolitik kommen. Die Kommissionspräsidentin sollte nicht eine solch kühne Behauptung in den Raum stellen, die unbelegt ist.
Die noch immer anschwellende KI-Blase blubbert nun seit drei Jahren. Weder Anthropics Claude noch OpenAIs ChatGPT rentieren sich auch nur annähernd, im Gegenteil: Sie kosten die Ex-Start-ups Unmengen Geld. Und sie kosten uns alle Unmengen Strom und Wasser und Elektronik-Hardware, die bald zu Bergen von Elektronikschrott werden könnten, wenn das drastische Wachstum der KI-Großrechenzentren so weitergeht. Die notwendige Umstellung der Energieproduktion hin zu Erneuerbaren wird buchstäblich von KI aufgefressen.
Wir sollten aufhören, Software zu anthropomorphisieren, ihnen also menschliche Fähigkeiten anzudichten. Wir müssen weg von dem Glauben an KI und dem Nachplappern von Versprechungen der Tech-Bosse. Es vernebelt nicht nur von der Leyen die Sinne, sondern auch uns, wenn wir informiert und sachlich einschätzen wollen, welche Fähigkeiten der Sprachmodelle wir wo sinnvoll einsetzen können und was schlicht Bullshit ist.
Wir müssen auch weg von einer allzu freundlichen Sichtweise auf die Tech-Konzerne. Denn sie sind eben keine Heilsbringer, denen nun auch noch mit einer Anti-DSGVO-Agenda entgegengearbeitet werden sollte. Sondern es gehört ihnen mit gesunder Skepsis begegnet sowie dem Willen, geltendes EU-Recht durchzusetzen statt rückzubauen.
Im Vergleich zu der Rede von der Leyens zur sogenannten „State of the Union“ noch im September ist eine Umkehr zu beobachten. Damals betonte die Kommissionspräsidentin in ihrer Rede noch, dass sie „europäische Unabhängigkeit“ und die „Kontrolle über die Technologien […], die unsere Volkswirtschaften antreiben“, anstrebe. Sie wolle eine gute Regulierung der US-Konzerne, sagte die CDU-Politikerin. Explizit zur Digitalregulierung posaunte sie gar: „Wir setzen unsere eigenen Standards. Und unsere eigenen Regeln.“
Davon lässt ihre Anti-DSGVO-Agenda wenig übrig. Kein Wunder, wenn sie offenbar lieber den Übertreibungen und Halbwahrheiten der Tech-Bosse als der Wissenschaft zuhört.

Wenn Laien zu KI Vorträge halten …
Es handelt sich weniger um Intelligenz als um wohlgefällige Statistik, denn die KI Modelle können die Inhalte nicht verstehen.
„Es ist gut, wenn jemand Kompetentem mal der Kragen platzt und angesehene Wissenschaftler übertriebenen Quatsch als solchen benennen und auf Fehlentwicklungen hinweisen. “
Beim Durchgehen der Liste: „Professor of Gender and Diversity in AI“.
Keine weiteren Fragen mehr.
Klär uns doch mal auf. Was willst du sagen? Wer zu Geschlechtern und Vielfalt in der KI forscht, kann gar nicht kompetent sein? Oder vielleicht: Sind alle inkompetent, denn bei einem steht nämlich was mit Gender und Diversity dran? Oder vielleicht: Mein MAGA-Schal hat leider meine Blutzufuhr ins Gehirn abgedrückt?
Davon ab auch exakt die eine Unterzeichnerin der 73, bei der Gender und/oder Diversity im Titel stehen. Selektive Wahrnehmung und so…
FYI
https://www.ru.nl/en/research/research-projects/ai-for-womens-health
AI for women’s health?
Troubling categories of sex and gender in medical machine learning
Within this situation, women’s health advocates hope that artificial intelligence (AI) can advance our understanding of sex/gender health disparities. However, we lack deep insight into how AI techniques may either reify or destabilize human categories when they are used to, for example, discover medical differences between women and men. To address this, this project draws on feminist Science and Technology Studies to ask: Which views on the nature of gender and sex, and with views on the promises and pitfalls of AI, are shaping the discourse and research practices surrounding women’s health? And how are categories and facts pertaining to sex, gender, and women then constructed and legitimized through the use of medical AI?
Bei der Frage: Bildet das AI-Modell die Wirklichkeit ab, oder ist das „mal wieder privilegiert-weiß-männlich-gefärbt?“, hätte ich schon gerne einige Fachleute für „Gender and Diversity“ unter Dampf gehalten.
Die 72 anderen Unterzeichnenden aus Computerwissenschaften, Linguistik und dergleichen haben sich an der Spezialisierung der Kollegin offenbar nicht gestoßen.
Stattliche Liste von Fakultäten.
Constanze: „Wir müssen auch weg von einer allzu freundlichen Sichtweise auf die Tech-Konzerne. Denn sie sind eben keine Heilsbringer, …“
Völlig richtig! Aber was tun?
Tech-Konzerne, insbesondere jene deren CEOs einem Herrn Trump bei jeder Gelegenheit in den Arsch kriechen, sind nicht nur keine Heilsbringer, sondern eine konkrete Gefahr für demokratisch-freiheitliche Gesellschaften.
Wer aber macht diese Tech-Bros reich und mächtig? Es ist das unerschöpfliche Heer bequemer und ignoranter, emotionalisierter und suggestibler User, DAUs eben.
KI ist eine Herrschaftstechnologie der Reichen, natürlich ist eine reiche Konservative voll und ganz dafür.
Mir scheint, das ist immer noch Zensursula, die mit den Stoppschildern im Netz – eine über die Jahre erfolgreiche Produzentin von Geschwätz. Was sagt das über unsere Kultur?
Dr. Joachim Paul (ex-Pirat, ex NRW-MdL)
So sehr ich auch dem Paper in den Schlussfolgerungen zustimme, es wäre möglich und notwendig gewesen, jeden einzelnen Punkt zu begründen bzw. Fußnoten mit Arbeiten zum Thema anzufügen. Das wäre eine objektivere, logische und nachvollziehbare wissenschaftliche Entgegnung gewesen.
Wieso wird es in den nächsten Jahren zu keiner „Superintelligenz“ kommen können? Das kann man ganz gut erklären (und es gibt ganz unterschiedliche Ansätze dazu – meist mit ähnlichen Ergebnissen)
Dabei ist egal, ob die Kommission das verstehen würde. Es werden sich schon Leute finden, die ihnen das erklären (zugegeben: so oder so).
Es stimmt schon, dass das notwendig gewesen wäre, nur hätte das UvdL oder ihre Nachplapperer wirklich gelesen? Das hätte lediglich eine Menge Zeit mehr in Anspruch genommen, ohne bei den Adressaten eine Reaktion hervorzurufen.
ich bin aber nicht der Meinung, dass es egal ist, ob die Kommission das versteht. Der Brief war schließlich nicht an die Allgemeinheit adressiert. Diese Leute machen Entscheidungen, die unsere Zukunft beeinflussen, weil KI angeblich so viel kann – siehe „Omnibus“.
Auch mit dem „es werden sich schon Leute finden…“ stimme ich da nicht zu. Das kann dauern, bis UvdL und die Kommission merkt, dass es einen deutlichen Unterschied gibt zwischen dem KI-CEO, der Geld einsammeln muss, weil sein Unternehmen massive Verluste macht und der gleichen Person in der Rolle des Techvorstands, der merkt, dass die angeblich exponentiell steigende Kurve der Fähigkeiten abflacht. Letzteres verkauft sich gar nicht gut bei potentiellen Investoren, die zwar Geld aber wenig Sachverstand haben, und daher schweigt der Techvorstand dazu.
Natürlich liest die Kommission Begründungen nicht. Aber, Politiker müssen auch gar keine Fachleute sein. Ich verlange nur, Überprüfbarkeit (durch Leute, die davon etwas verstehen). Im Fall von KI kann das relativ objektiv geschehen. Es gibt dann einen Ermessensspielraum, etwa wirtschaftliche Erwägungen. Doch Tatsachen darf auch eine Kommission nicht ignorieren.
Ich zitiere den Artikel: „Denn Desinformation sollte nicht auch noch aus der Spitzenpolitik kommen. Die Kommissionspräsidentin sollte nicht eine solch kühne Behauptung in den Raum stellen, die unbelegt ist.“
Das allerdings gilt auch für Kritiker und muss auch für die Wirtschaft gelten. Tut man das nicht, dann sind das bestenfalls Werbesprüche, Aberglaube und Stammtischlevel oder schlimmer noch, Propaganda. Wissenschaftler dürfen sich nicht auf diesen Level begeben, auch wenn sie noch so Recht haben.
Btw: Dank für die aus meiner Sicht sinnvolle Antwort (und ich muss gar nicht Recht haben).
Schlechte Zeiten mit Hirn. Noch schlechter mit Expertise. Von Träumen wollen wir nicht mehr sprechen. ?
Ich hab mich grad verschluckt vor Lachen. Die Antwort der EU-Kommission war auch noch teilweise von ChatGPT generiert:
https://www.iccl.ie/news/european-commission-breaches-own-ai-guidelines-by-using-chatgpt-in-public-documents/
Kris Shrishak weist nochmal darauf hin, dass ChatGPT schon konzeptuell nur auf Grundlage von Wahrscheinlichkeiten die nächsten Wörter berechnet und ausspuckt und daher immer fehleranfällig ist. Dass die EU-Kommission die Ergebnisse von generativer KI in ihre öffentlichen Dokumente kopiert, sei vermutlich auch noch ein Verstoß gegen die eigenen KI-Leitlinien der Kommission.
„Lächerlich“ daran ist weniger die Verwendung eines Werkzeugs, das „Worte mit Wahrscheinlichkeiten“ aneinander reiht und deshalb „fehlerbehaftet“ ist.
Lächerlich ist es auf Werbesprüche von NVIDIA und OpenAI reinzufallen und das dann noch als wissenschaftliche Quelle (Zitat: „review of scientific literature“) anzugeben.
Die Aussage der von der Leyen ist objektiv falsch. Es gibt keine Intelligenz bei einer KI bzw einem large language model, abseits der Leistung derer, die sie geschaffen haben. Nach dem aktuellem Stand der Wissenschaft ist das auch gänzlich unmöglich, daran etwas zu ändern. (…)
Nun frage man sich, warum die von der Leyen das anders behauptet und wessen Interessen die Kommission denn vertritt.
Ich habe GPT-4o mini mal gefragt. Nun, offensichtlich „lebt Nummer 9“ (auf den ersten Blick. Aber Vorsicht…)
Was Sie der Kommissionspräsidentin sagen könnten
Argumentationsstruktur
Erklärung der Begrenzungen der aktuellen KI:
Fehlende sensorische Wahrnehmung: KI hat keine eigenen Sinnesorgane und ist daher stark von menschlichen Eingaben abhängig. Dies limitiert ihre Fähigkeit, autonom in der realen Welt zu agieren.
Abhängigkeit von Lernalgorithmen: Die Algorithmen sind statisch und nicht in der Lage, sich durch Erfahrungen außerhalb menschlicher Vorgaben weiterzuentwickeln.
Vorschläge für Fortschritte:
Integration von Sensoren: Um KI tatsächlich adaptive Fähigkeiten zu verleihen, wäre es sinnvoll, ihr Zugang zu sensorischen Informationen und Interaktionsmöglichkeiten zu geben. Dies könnte ihre Effizienz und Flexibilität verbessern.
Entwicklung dynamischer Lernmethoden: Adaptive Algorithmen könnten KI-Systemen erlauben, aus realen Erfahrungen zu lernen, was ihrer Entwicklung näher an der menschlichen Intelligenz bringen könnte.
Ethische Überlegungen:
Mit fortschreitender Automatisierung und Interaktion müssten auch klare ethische Rahmenbedingungen für KI definiert werden, die Verantwortung und Sicherheit in den Mittelpunkt stellen.
Fazit
Informieren Sie die Kommissionspräsidentin darüber, dass aktuelle KI-Systeme zwar beeindruckende Fortschritte gemacht haben, jedoch erheblich in ihren Fähigkeiten eingeschränkt sind. Es wäre notwendig, dynamische Lernmechanismen und interaktive Technologien zu integrieren, um KI einen intelligenten Charakter zu verleihen. Die Diskussion sollte auch die ethischen Herausforderungen, die mit diesen technischen Entwicklungen einhergehen, einschließen. Es ist essenziell, realistische Erwartungen an KI zu haben und die Unterstützung für innovative Ansätze zu fördern.
Sorry, so wie GPT (also OpenAI) das „darstellt“, kann ich das nicht stehen lassen.
Was ich dagegen der Kommissionspräsidentin sagen würde:
Stärke die Freiheit von Wissenschaft und Lehre. Mach uns nicht abhängig von großen Firmen wie Meta, Google oder in diesem Fall OpenAI. Sorge für konsequenten Datenschutz, gerade bei AI Anwendungen. Keine persönlichen Daten in KI-Systemen. Keine autarken Entscheidungsmöglichkeiten für AI.
Beachte den Bias und die Färbung, den Vorselektion durch Maschinen bei Entscheidenderen verursacht. Das gilt insbesondere für Hilfsmittel bei Polizei und Behörden. AI bedeutet hier keine Objektivierung und erst Recht keine Menschlichkeit.
Beachte, dass OpenAI gerade für 38Milliarden Dollar Rechenleistung bei AWS kauft(e?). Es geht um sehr sehr viel Geld. Um unser Geld!
Beachte ferner, wie GTP-4o mini zu solchen Forderungen kommt und welche Auswirkungen das haben könnte. Es gibt bewiesene mathematische Modelle, etwa was die Rückkoppelung bewirkt, die OpenAI (und einige Wissenschaftler) via GTP da fordert. Alleine die dabei verwendeten Begriffe, etwa „Resonanzkatastrophe“, „seltsame Attraktoren“ und „Chaos“, nach dem eine ganze Theorie benannt ist, sollten uns aufhorchen lassen.
Ich würde das liebend gerne mathematisch näher erläutern. Doch hier müsst ihr euch damit zufrieden geben: Wir schaffen einen Golem. Und die Geister, die ich rief, die werden wir nicht mehr los. Bitte Leute, nutzt den eigenen Kopf. Selbst Denken kann auch Spaß machen.